近年来,人类面孔的影子化化身已经走了很长一段路,但是该地区的研究受到缺乏公开可用的高质量数据集的限制。在这项工作中,我们介绍了Multiface,这是一种新的多视图,高分辨率的人脸数据集,该数据集是从13个身份的神经面部渲染研究中收集的13个身份。我们介绍了Mugsy,这是一种大型多摄像机设备,可捕获面部表现的高分辨率同步视频。 Multiface的目的是缩小学术界高质量数据的可访问性的差距,并使VR触觉研究能够进行研究。随着数据集的释放,我们对不同模型体系结构对模型的新观点和表达式的插值能力进行消融研究。通过有条件的VAE模型作为我们的基线,我们发现添加空间偏见,纹理翘曲场和残差连接可改善新型视图合成的性能。我们的代码和数据可在以下网址获得:https://github.com/facebookresearch/multiface
translated by 谷歌翻译
可解释的人工智能(XAI)的目的是产生人类解释的解释,但没有关于人类如何解释AI产生的解释的计算精确理论。缺乏理论意味着XAI的验证必须逐案基础进行经验进行,这阻止了XAI中的系统理论构建。我们提出了一种心理理论,即人类如何从显着图中得出结论,这是XAI解释的最常见形式,这是首次允许精确预测说明的推理以解释为条件。我们的理论认为,没有解释的人类期望AI对自己做出类似的决定,并通过与自己会做出的解释进行比较来解释解释。比较是通过Shepard在相似空间中的普遍泛化定律(一种认知科学的经典理论)形式化的。对AI图像分类的预注册用户研究具有显着性图的解释表明,我们的理论定量与参与者对AI的预测相匹配。
translated by 谷歌翻译